深度学习已被广​​泛用于推断强大的掌握。虽然最初用于学习掌握配置的人类标记的RGB-D数据集,但是这种大型数据集的准备是昂贵的。为了解决这个问题,通过物理模拟器生成图像,并且使用物理启发模型(例如,抽吸真空杯和物体之间的接触型号)作为掌握质量评估度量来注释合成图像。然而,这种联系方式复杂,需要通过实验进行参数识别,以确保真实的世界表现。此外,以前的研究还没有考虑机器人可达性,例如当具有高抓握质量的掌握配置由于机器人的碰撞或物理限制而无法到达目标时无法到达目标。在这项研究中,我们提出了一种直观的几何分析掌握质量评估度量。我们进一步纳入了可达性评估度量。我们通过拟议的评估度量对模拟器中的合成图像上的综合评估标准进行注释,以培训称为抽吸贪污U-Net ++(SG-U-Net ++)的自动编码器解码器。实验结果表明,我们直观的掌握质量评估度量与物理启发度量有竞争力。学习可达性有助于通过消除明显无法访问的候选者来减少运动规划计算时间。该系统实现了560pph(每小时碎片)的整体拾取速度。
translated by 谷歌翻译
Text-to-text generation models have increasingly become the go-to solution for a wide variety of sequence labeling tasks (e.g., entity extraction and dialog slot filling). While most research has focused on the labeling accuracy, a key aspect -- of vital practical importance -- has slipped through the cracks: understanding model confidence. More specifically, we lack a principled understanding of how to reliably gauge the confidence of a model in its predictions for each labeled span. This paper aims to provide some empirical insights on estimating model confidence for generative sequence labeling. Most notably, we find that simply using the decoder's output probabilities is not the best in realizing well-calibrated confidence estimates. As verified over six public datasets of different tasks, we show that our proposed approach -- which leverages statistics from top-$k$ predictions by a beam search -- significantly reduces calibration errors of the predictions of a generative sequence labeling model.
translated by 谷歌翻译
顺序标记是一项基本的NLP任务,构成了许多应用程序的骨干。对SEQ2SEQ模型的监督学习(如T5)在这些问题上取得了巨大的成功。但是,这些模型的培训目标与我们在实际应用中关心的指标和Desiderata之间存在显着脱节。例如,实用的序列标记应用程序可能需要优化某些Precision-Recall折衷(TOP-K预测),这与最大化金标记序列的可能性的标准目标完全不同。因此,为了弥合这一差距,我们提出了Groot,这是一个简单而有效的框架,用于生成文本序列的奖励优化。 Groot通过训练生成的顺序标记模型来工作,以将解码器输出分布与(Black-Box)奖励函数的输出分布相匹配。使用迭代培训制度,我们首先生成预测候选者,然后纠正其中的错误,最后对比这些候选者(基于其奖励价值)。正如通过四个公共基准测试的广泛实验所证明的那样,Groot显着改善了所有奖励指标。此外,Groot还导致了整体解码器分布的改善,这是由顶级$ K $候选者的质量提高所证明的。
translated by 谷歌翻译
小型模块化反应堆的概念改变了解决未来能源危机的前景。考虑到其较低的投资要求,模块化,设计简单性和增强的安全功能,这种新的反应堆技术非常有希望。人工智能驱动的多尺度建模(中子,热液压,燃料性能等)在小型模块化反应堆的研究中纳入了数字双胞胎和相关的不确定性。在这项工作中,进行了一项关于耐亡燃料的多尺度建模的全面研究。探索了这些燃料在轻水的小型模块化反应堆中的应用。本章还重点介绍了机器学习和人工智能在设计优化,控制和监视小型模块反应器中的应用。最后,简要评估了有关人工智能在高燃烧复合事故耐受燃料的发展中的研究差距。还讨论了实现这些差距的必要行动。
translated by 谷歌翻译
利用预训练语言模型的抽象摘要系统在基准数据集上取得了卓越的结果。但是,此类模型已被证明更容易幻觉,这些事实对输入背景不忠。在本文中,我们提出了一种通过实体覆盖范围控制(ECC)来补救实体级外部幻觉的方法。我们首先计算实体覆盖范围的精度,并为每个培训示例提供相应的控制代码,该示例隐含地指导该模型在训练阶段识别忠实的内容。我们通过从Wikipedia提取的大但嘈杂的数据中进行中间调整进一步扩展了我们的方法,以解锁零击摘要。我们表明,根据我们对三个基准数据集XSUM,PubMed和Samsum的实验结果,根据我们在监督的微调和零射击设置中,可以在监督微调和零摄像设置中更加忠实和显着的抽象性汇总。
translated by 谷歌翻译
变异推断是一种近似顽固性后验分布的技术,以量化机器学习的不确定性。尽管通常选择单峰高斯分布作为参数分布,但几乎不能近似多模式。在本文中,我们将高斯混合物分布作为参数分布。高斯混合物的变异推断的主要难度是如何近似高斯混合物的熵。我们将高斯混合物的熵近似为单峰高斯的熵之和,可以在分析上计算。此外,我们理论上分析了真熵与近似熵之间的近似误差,以揭示我们的近似何时效果很好。具体而言,近似误差由平均值与高斯混合物方差之和之间的距离之比控制。此外,当比率变为无穷大时,它会收敛到零。由于维度的诅咒,这种情况似乎更有可能在更高维度的参数空间中发生。因此,我们的结果保证了我们的近似效果很好,例如,在具有大量权重的神经网络中。
translated by 谷歌翻译
从数据中提取空间时间知识在许多应用中都很有用。重要的是,所获得的知识是人类解释的和适用于正式分析。在本文中,我们提出了一种方法,该方法列举神经网络以学习基于加权图的信号时间逻辑(WGSTL)公式的形式的空间时间特性。对于学习WGSTL公式,我们介绍了一种灵活的WGSTL公式结构,其中用户的偏好可以应用于推断的WGSTL公式中。在所提出的框架中,神经网络的每个神经元对应于柔性WGSTL公式结构中的子核。我们初始训练一个神经网络来学习WGSTL运营商,然后训练第二个神经网络以在灵活的WGSTL公式结构中学习参数。我们使用Covid-19数据集和雨量预测数据集来评估所提出的框架和算法的性能。我们将建议框架的性能与三个基线分类方法进行比较,包括K-Collest邻居,决策树,支持向量机和人工神经网络。所提出的框架获得的分类准确性与基线分类方法相当。
translated by 谷歌翻译
涉及将知识从富含标签的源域传送到未标记的目标域的无监督域适应,可用于大大降低对象检测领域的注释成本。在这项研究中,我们证明了源域的对抗训练可以作为无监督域适应的新方法。具体地,我们建立了普遍训练的探测器在源极域中显着移位的目标域中实现了改进的检测性能。这种现象归因于普遍训练的探测器可用于提取与人类感知的鲁棒特征提取鲁棒特征,并在丢弃特定于域的非鲁棒特征的同时在域中传输域。此外,我们提出了一种结合对抗性训练和特征对准的方法,以确保具有目标域的鲁棒特征的改进对准。我们对四个基准数据集进行实验,并确认我们在大型域转移到艺术图像的大域移位的有效性。与基线模型相比,普遍训练的探测器在结合特征对准时将平均平均精度提高至7.7%,进一步高达11.8%。虽然我们的方法降低了对小型域移位的性能,但基于Frechet距离的域移位的量化允许我们确定是否应该进行抗逆性培训。
translated by 谷歌翻译
内核放牧算法用于在复制的内核希尔伯特空间(RKHS)中构建正交规则。虽然该方法的算法的计算效率和输出正交公式的稳定性是该方法的优点,但与其他正交方法相比,给定数量的节点的集成误差的收敛速度很慢。在本文中,我们提出了一种经过修改的内核放牧算法,该算法在先前的研究中引入了框架,并旨在获得更稀疏的解决方案,同时保留标准仁放牧的优势。在提出的算法中,负梯度通过几个顶点方向近似,并且通过在每次迭代中的近似下降方向移动来更新当前的解决方案。我们表明,集成误差的收敛速度是由负梯度和近似梯度之间角度的余弦决定的。基于此,我们提出了新的梯度近似算法并理论上分析它们,包括通过收敛分析。在数值实验中,我们从节点的稀疏性和计算效率方面证实了所提出的算法的有效性。此外,我们提供了具有完全校对权重的内核正交规则的新理论分析,该规则比以前的研究更快地实现了收敛速度。
translated by 谷歌翻译